diskreter Zustand

diskreter Zustand
diskrečioji būsena statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m

Fizikos terminų žodynas : lietuvių, anglų, prancūzų, vokiečių ir rusų kalbomis. – Vilnius : Mokslo ir enciklopedijų leidybos institutas. . 2007.

Игры ⚽ Нужно решить контрольную?

Look at other dictionaries:

  • discrete state — diskrečioji būsena statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m …   Fizikos terminų žodynas

  • diskrečioji būsena — statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m …   Fizikos terminų žodynas

  • état discret — diskrečioji būsena statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m …   Fizikos terminų žodynas

  • дискретное состояние — diskrečioji būsena statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m …   Fizikos terminų žodynas

  • Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”